查看原文
其他

论文推荐|[TCSVT 2021] 用于场景文字擦除的文字区域条件生成对抗网络

黄宇浩 CSIG文档图像分析与识别专委会 2022-07-11

本文简要介绍TCSVT 2021录用论文:“Text Region Conditional Generative Adversarial Network for Text Concealment in the Wild”的主要工作。该工作针对场景文字擦除的问题,指出用单词级别的边界框来定位文字的区域,会引入过多的背景噪声。因此作者首先采用了字符级的边界框来替代单词级别的边界框,并且提出了一个字符级的对称线表示,去获取更细致的文字区域预测结果。该方法能够帮助网络更关注笔画的像素,而不是背景的像素。

一、研究背景



图 1 场景文字擦除的例子:(a)包含文字内容的图片,(b)经过文字隐藏后的图片

当我们拍摄照片的时候,我们偶然会拍摄到一些敏感的文字信息,如车牌号码,地理位置,门牌号码等,这些图片如果上传到网上可能会导致隐私泄露的问题。因此文字信息隐藏对于保护个人隐私是一个重要的任务。

场景文字擦除的挑战性主要有以下方面:文字的大小和笔画不统一;任意的长宽比;图像的亮度;复杂的背景;以及如何在保正图像质量的同时,擦除文字。上述的问题可以分为两步进行解决:(1)检测文字的区域,(2)根据文字的区域擦除文字。具体地,文字擦除任务要求用周围的背景掩盖字符的笔画,使得文字不可读。因此要求文字的区域包含最少的背景像素,即需要笔画级别的分割结果。然而大多数的数据集只能够提供边界框的标注,而缺少笔画级别的分割标注。为了解决该问题,作者采用了字符级的边界框,因为字符级的边界框所包含的背景像素更少,并且作者还提出了对称线字符表示方法,该方法使得网络的训练不需要使用笔画级的分割标注,并能够帮助网络更关注字符笔画的特征。

二、方法介绍



图 2 整体框架

网络的整体框架如图2所示,它由两部分构成:生成器和判别器。生成器负责两个任务,分别是文字检测和文字擦除。其中文字检测网络用于文字区域的分割,文字区域的分割可以帮助擦除网络去区分文字的区域和非文字的区域。判别器由全局判别器(D1)和Patch Level的判别器(D2)构成,全局的判别器用于判断生成图片的真或假,Patch Level的判别器用于确保局部区域的正确性。

2.1 文字检测网络 

图 3(a)文字检测网络的结构,(b)表格所示为,根据字符最大边的长度,分别分配给不同尺度的输出分支

受启发于Tiramisu结构[1],作者采用了基于分割的方法去预测文字的区域。如图3(a)所示,网络由三部分构成:密集连接的下采样、多尺度的上采样、特征的聚集。下面将分别介绍这些模块。

密集连接的下采样:假设是第层的输出,密集连接使用了前面所有层的特征去计算第层的输出,表示如下:

其中表示BN层、激活函数、卷积层和Dropout层的结合。

多尺度的上采样:多尺度的上采样模块包含了四个分支,每个分支使用了下采样过程中的不同层的特征,并通过结合密集连接块和上采样单元进行上采样。另外,不同尺度的字符会单独输入到相应的分支进行预测,其中字符的大小范围和对应的分支如图3(b)所示。分支的输出被称为辅助输出,每个辅助输出都预测三个类别,分别是文字、背景和字符的边界。

特征的聚集:对上采样过程中不同尺度分支的输出进行融合。

对称线字符表示:如图4所示,字符的对称线表示,是通过连接字符的中心点,到边界的中心点而构成的。并且为了避免相邻字符的对称线重合,作者还缩小了这些对称线。因此,对称线以内的区域被认为是文字的区域,而对称线以外的区域被认为是不关注的区域。在仅使用字符框标注的训练数据情况下,这种表示方法能够帮助网络,获得更细致的像素级文字分割结果。 

图 4 文字的对称线表示和不关注的Mask

文字检测网络的损失函数分为辅助输出和最终输出两部分。辅助输出的损失函数可以表示如下: 

其中s表示的是四种不同的尺度。而最终输出的损失函数定义为: 

其中d表示的是不关注的Mask。

2.2 文字擦除网络

文字擦除网络用于擦除场景中的文字,文章中采用的是U-Net[2]结构的网络。网络的整体结构如图5所示,网络的输入是原图和文字分割Mask的拼接,文字的分割Mask可以帮助网络擦除文字,并且忽略非文字的区域。文字擦除网络所使用的损失函数是L1损失和感知损失。 

图 5 文字擦除网络的结构

2.3 全局判别器和Patch Level判别器

文章结合了全局判别器(D1)和Patch Level的判别器(D2)进行判别器的设计。全局的判别器用于判断生成图片的真或假,Patch Level的判别器用于确保局部区域的正确性。

1) 全局判别器:如图6(a)所示,全局判别器将图片和文字分割Mask拼接起来作为输入,能够帮助判别器关注于文字区域的真和假。此外文字可能是多尺度的,为了解决多尺度的问题,作者还将不同层的特征拼接在一起。全局判别器的优化目标可以表示如下: 

2) Patch Level的判别器:如图6(b)所示,Patch Level的判别器将图片和文字区域的特征作为输入,用于确保生成图片和真值之间的局部相似性。其中文字区域对应的特征通过ROI Pooling进行提取。Patch Level判别器的优化目标可以表示如下: 

图 6(a)以文字区域Mask为条件的全局判别器,(b)Patch Level的判别器

三、主要实验结果及可视化效果



作者分别通过文字检测的方法和图像质量评估的方法,对比了所提出方法的擦除性能。并且通过消融实验验证了各模块的有效性。

表1 文字擦除后检测指标的对比 

表2 图像质量指标的对比 

表3 各模块的消融实验 

图 7 可视化不同方法的擦除效果 

图 8 可视化分割Mask的结果

四、总结



本文提出了一个端到端训练的文字擦除网络,它可以在仅使用字符级标注的情况下,通过所提出的对称线字符表示,得到更细致的文字区域,并取得了较好的擦除性能。

五、相关资源



论文地址:

https://ieeexplore.ieee.org/abstract/document/9509541

参考文献



[1] S. Jégou, M. Drozdzal, D. Vazquez, A. Romero, and Y. Bengio, “The one hundred layers tiramisu: Fully convolutional densenets for semantic segmentation,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 1175–1183, 2017.
[2] O. Ronneberger, P. Fischer, and T. Brox, “U-net: Convolutional networks for biomedical image segmentation,” in International Conference on Medical image computing and computer-assisted intervention, pp. 234–241, 2015.


原文作者: Prateek Keserwani, Partha Pratim Roy


撰稿:黄宇浩

编排:高 学
审校:殷 飞
发布:金连文

 


免责声明:1)本文仅代表撰稿者观点,撰稿者不一定是原文作者,其个人理解及总结不一定准确及全面,论文完整思想及论点应以原论文为准。(2)本文观点不代表本公众号立场。


往期精彩内容回顾


欢迎加入中国图象图形学学会!(附入会攻略)


征稿启事:本公众号将不定期介绍文档图像分析与识别及相关领域的论文、数据集、代码等成果,欢迎自荐或推荐相关领域最新论文/代码/数据集等成果给本公众号审阅编排后发布。


扫描二维码,关注我们:


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存